zh
AI产品榜
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
首页
AI资讯
AI日报
变现指南
AI教程
AI工具导航
AI产品库
zh
AI产品榜
搜索全球AI产品动态
搜索全球AI信息,发现AI新机遇
新闻资讯
产品应用
变现案例
AI教程
类型 :
新闻资讯
产品应用
变现案例
AI教程
2025-02-17 10:05:18
.
AIbase
.
15.4k
Meta 创新推出 “连续概念混合” 框架,推动 Transformer 预训练新革命
近年来,随着大型语言模型(LLMs)的快速发展,自然语言处理领域经历了前所未有的变革。这些技术如今广泛应用于代码助手、搜索引擎和个人 AI 助手等场景,展现了强大的能力。然而,传统的 “下一个 token 预测” 范式存在一定局限性,尤其是在处理复杂推理和长期任务时,模型需要经历大量训练才能掌握深层次的概念理解。为了解决这一问题,Meta 等机构的研究者们提出了一种名为 “连续概念混合”(CoCoMix)的新颖预训练框架。这一方法不仅保留了下一个 token 预测的优点,还引入了
2024-07-10 16:41:51
.
AIbase
.
10.2k
谷歌提出百万专家Mixture 释放进一步扩展 Transformer 的潜力
Google DeepMind发布了一项引领性的研究,中心围绕其提出的百万级专家模型——Mixture,该模型采用了革新性架构在Transformer基础上跨出重要一步。Mixture通过让从十万多个微型专家中高效快速进行稀疏检索,实现了在保持计算效率的同时释放Transformer架构潜力的目标。核心亮点在于参数效益高的专家检索机制,通过乘积密钥技术分离计算成本与参数计数,PEER架构在语言模型任务中展现出卓越性能,优于密集式FFW,粗粒度MoE和PKM层。实证结果显示,通过调整专家数量与活跃专家数量,Mixture模型性能显著提升,特别是其在降低困惑度方面的出色表现。这项技术突破性地展示了个性化和智能化能力在提升转化率和用户满意度上的潜力,对于AIGC领域具有重要影响。
2024-07-02 11:32:31
.
AIbase
.
10.0k
韩国团队提出全新Transformer架构 可让大模型解码提速20倍
2023-08-18 17:37:48
.
AIbase
.
647
Transformer 出逃八子最后一人正式创业!坐标日本搞 AI “群” 模型,本人:在谷歌有被困住的感觉
["Transformer 出逃八子最后一人正式创业!坐标日本搞 AI “群” 模型","谷歌经典 Transformer 论文 8 位作者的最后一位,创业去向已定!","新公司 base 东京,目标是做一家 “世界级人工智能研究室”"]